Бразилският регулатор забранява на Meta да използва данни за обучение на AI
Бразилия следва Европа в блокирането на Meta да употребява обществени изявления за образование на AI.
Първо в Европа, а в този момент и в Бразилия: Новата политика за дискретност на Meta за копаене на обществени изявления на хора в обществените медии, с цел да се образова техният изкуствен интелект (AI) още веднъж беше публично блокирана.
Националният орган за отбрана на данните на Бразилия дефинира по-рано тази седмица, че тяхната нова политика предизвиква „ непосреден риск от съществени и непоправими или сложни за коригиране вреди върху главните права на засегнатите субекти на данни “, сподели организацията в формалния вестник на страната.
Бразилия е един от най-големите пазари на Meta, като единствено Фейсбук има към 102 милиона дейни консуматори в страната, се споделя в изказване на организацията.
Блокиран и в Европа
Социалната медийна компания също срещна опозиция против актуализацията на своята политика за дискретност в Европа, където неотдавна отсрочи проектите си да стартира да употребява обществените изявления на хората, за образование на AI системи - което трябваше да стартира предходната седмица.
Промените в политиката в Европа щяха да включват обществено споделени изявления, изображения, надписи на изображения, мнения и истории от консуматори над 18 години във Фейсбук и Instagram. Не се разгръща върху персоналните известия.
Ирландската комисия за отбрана на данните (DPC) се намеси, като изпрати искане до Meta от други европейски органи с молба към компанията да забави образованието си на огромни езикови модели (LLM), които зареждат чатботове като ChatGPT на OpenAI, употребяващи този вид данни.
Meta скоро ще употребява обществените ви изявления, с цел да образова своя AI. Можете ли да го предотвратите?
Мета, че без местни данни ще може да даде на потребителите на MetaAI единствено „ второкласно преживяване “, с артикули на ИИ, които „ няма да схванат тъкмо значимите районни езици, култури или настоящи тематики “, и по този начин забавено внедряването му.
Компанията щеше да направи налични Llama, своя AI chatbot и MetaAI асистента, в случай че имаха достъп до тези данни.
Meta сподели, че методът й в Европа „ подхожда на законите и наредбите “ и че е „ по-прозрачен от доста [техните] аналози в промишлеността “.
Методът „ подхожда на законите за дискретност “
Говорител на Meta сподели пред Associated Press в изказване, че компанията е „ разочарована “ и упорства, че нейният способ „ подхожда на законите и наредбите за дискретност в Бразилия ”.
„ Това е стъпка обратно за нововъведенията, конкуренцията в създаването на ИИ и по-нататъшно закъснение на даването на изгодите от ИИ на хората в Бразилия, ” добави представителят.
Отказвайки да присъединяване е допустимо, сподели Мета в това изказване.
Политиката на Мета за „ заплащане или единодушие “ нарушава Закона за цифровите пазари, споделя Брюксел
Въпреки тази алтернатива има „ несъразмерни и неоправдани спънки пред достъпа до информацията и упражняването “ правото да се откажат, се споделя в изказване на организацията.
Meta не даде задоволително информация, с цел да разреши на хората да бъдат наясно с вероятните последствия от потреблението на техните персонални данни за създаването на генеративен AI, добави той.
Решението ще „ навреди на прозрачността “ по отношение на това по какъв начин се употребяват данните
Hye Jung Han, основан в Бразилия откривател за Human Rights Watch в Бразилия, сподели в имейл във вторник, че действието на регулатора „ оказва помощ да се защитят децата от безпокойството, че техните персонални данни, споделени с другари и семейство в платформите на Meta, могат да бъдат употребявани, с цел да им нанесат вреди по способи, които е невероятно да се плануват или да се предпазят от тях “.
Решението по отношение на Meta „ доста евентуално “ ще насърчи други компании да се въздържат от бистрота при потреблението на данни в бъдеще, сподели Роналдо Лемос от Института за технологии и общество в Рио де Жанейро, мозъчен концерн. p>
„ Meta беше грубо осъдена, тъй като беше единствената измежду огромните софтуерни компании, която ясно и авансово уведоми в своята политика за дискретност, че ще употребява данни от своите платформи за образование на изкуствен интелект “, сподели той.
Съответствието би трябвало да бъде демонстрирано от компанията в границите на пет работни дни от уведомяването за решението и организацията наложи дневна санкция от 50 000 реала (8 330 евро) за неспазване на това.